勤能补拙的“笨小孩”AI存在什么技术瓶颈?有哪些局限性?未来AI的六大发展趋势!《追AI的人》第16期直播回放
《追AI的人》系列直播第16期邀请了重庆邮电大学校长,国家万人计划科技创新领军人才高新波老师分享《人工智能的未来发展趋势分析》
以下为直播的文字回放,共9684计字。
高新波,重庆邮电大学校长,国家万人计划科技创新领军人才,新世纪百千万人才工程国家级人选,长江学者特聘教授(2012-2017),国家杰出青年科学基金获得者,重庆英才优秀科学家,科技部重点领域创新团队负责人、教育部创新团队负责人,教育部科技委委员、教育部高等学校计算机类专业教学指导委员会委员。
主要从事人工智能、机器学习、计算机视觉、模式识别等领域的研究和教学工作,出版专著教材7部、发表学术论文300余篇。获国家创新争先奖状、国家自然科学二等奖1项、省部级科学技术一等奖5项。
例子一:
在局部智能水平的单项测试中,人工智能很多地方都超过了人类智能。AlphaGo包括AlphaGo Zero,它是碾压人类顶尖棋手。在1998年左右,我到日本去学习博弈论时,那时正好deep blue打败了卡斯帕罗夫。当时,美国时代周刊上刊文预测,在围棋上如果要机器打败人,需要至少100年。结果不到100年,甚至不到20年,在围棋方面机器也打败了人类,可见人工智能发展速度之快。
Alpha
例子二:IBM Watson
在知识竞赛里面,IBM Watson也战胜了人类冠军。
例子三:DeepStack
DeepStack德州扑克方面也已经达到了人类职业玩家水平。有人提议让它试一试中国桥牌,可能更复杂一些。但是可以预见的是,在这些规则比较明确的游戏上,人工智能很快都会超过人类。
Al
人工智能+制造,我们称它为智能制造。人工智能+交通,我们称作智能交通或者智慧交通,人工智能+安防就是智能安防,人工智能+医疗及时智慧医疗等。目前,人工智能已经渗透到了我们生产生活的方方面面,真正做到了为经济赋能,为生活添彩。
而家长看到别人家的孩子总是又聪明又勤奋,所以用这两个维度的参数划成4个区间,分别是家长心中期待的孩子,家长口中自己家的孩子,家长眼中自己家的孩子,以及别人家的孩子。
人工智能现在到底是自己家的孩子还是别人家的孩子?从目前人工智能的发展状况来看,它恰恰是我们自己家的那个孩子,它勤奋,但还是不够聪明,我们希望未来的人工智能成为别人家的孩子,又聪明又勤奋。
也许很多人认为现在的人工智能是别人家的孩子,看上去毫不费力,却取得了很大的成功。而实际上人工智能是一个勤奋听话、精力充沛、极尽完美的笨小孩。我们很难把AlphaGo 和AlphaGo zero跟聪明关联起来,为什么?因为AlphaGo 的系统里面存储了多达100万盘棋谱,它正是通过学习这些数据,总结出了下棋的策略,进而提前做出布局。
而柯洁和李世石这两个世界的顶级围棋高手,两个人加起来终其一生也不可能下到100万盘棋,所以 AlphaGo靠的还是勤能补拙,AlphaGo Zero它就不再需要输入棋谱,它是从零基础开始学起的,它通过自己左右互搏,自学成才,AlphaGo zero不断探索和积累经验,现在已经是碾压了AlphaGo 。
又称为Smart AI,2021年10月24日,中共中央国务院发布了《关于完整准确全面贯彻新发展理念做好碳达峰碳中和工作的意见》中,提出要大力发展绿色低碳产业,也是对人工智能赋能产业提出了新要求,希望人工智能在绿色化助力碳中和上,发挥它的作用。
为此,清华大学智能产业研究院院长张亚勤博士提出了AI+IoT的概念,IoT是物联网,Internet of things。人工智能+物联网绿色低碳的应用场景,我们称之为AIOT,用到了清洁能源和传统能源的融合领域,它可以在两种能源之间实现智能调度,能用清洁能源的时候就用清洁能源,能用传统能源的时候就用传统的。比如一些混合的汽车,既可以用电,也可以用汽油,它可以根据情况随时调度,都是依靠人工智能。
信息和通信技术产业本身需要大型的数据中心。5G快速的发展,它具有大容量、高带宽、高速度等有点,但是它耗电量非常大。可以利用人工智能实现自动休眠来达到节能减排的目标。还有其他新兴产业,比如说绿色城市、绿色交通等,都可以用人工智能+物联网进行绿色化,这些都是人工智能助力产业的绿色化发展。
人工智能本身也在野蛮生长。算法、数据和算力都在进行规模扩张式的发展。网络深度神经网络规模越来越大,参数越来越多,训练样本规模也得越来越大,对资源的消耗也必然越来越高。
以OpenAI提出的自然语言处理领域的GPT模型为例, GPT模型最早参数量只有1.17亿,训练数据需要5个GB,到了GPT-2的时候参数量达到15亿,预训练的数据量达到了40个GB,GPT-3达到1750亿,训练数据量要达到45GB。据说 GDP4它的参数量将达到100万亿,比GPT-3还要大500倍。
如此大量的增长,需要很多人力进行数据样本的标注,所以我们说出现了一大批被AI“累死”的人,大厂里雇了很多人进行数据标注,经常被调侃为被人工智能“累死”的人,以至于有人提出了灵魂拷问,难道得需要有多少人工才能有多少智能吗?因为当前的智能在很大程度上还是建立在人工的基础上,无论是从产业的发展,还是人工智能本身的发展,都呼唤绿色低碳、更灵巧更轻巧的人工智能。
而人类的智慧却体现在“否定”、“遗忘”,“有所为有所不为”等哲学上,通过做减法和主动“选择”,走上一条绿色极简的发展道路。所以我们一顿饭吃一个馒头就可以工作四五个小时,早晨喝一碗稀饭,就可以工作4个小时。中午吃1个馒头就可以下午工作4个小时,晚上有人12点还不睡,精力充沛,由此可见,人类消耗的能量是非常少。
为了实现绿色低碳智能系统,我们希望未来人工智能的发展方向是做减法,而不是做加法。当下的人工智能的现状是,如果模型的性能不够好,就增加模型参数,如果数据量不够多,就使用大数据,算力不够了,就启用更大的算力,都是在做加法。但是人往往是在做减法,所以我们希望通过构建更为灵巧的网络模型,通过轻量化的模型来降低对数据量和算力的需求。
要走绿色低碳道路,一方面是把网络进行轻量化设计,变成灵巧的网络。另一方面要增大大模型的开放共享力度,虽然大模型消耗了很多能量,但是如果有更多人使用它,更多的发挥作用的话,平均下来它的耗能也就没那么大了。
习总书记提出来的创新、协调、绿色、开放、共享这五大发展理念,我认为也可以用来指导人工智能的发展。未来的人工智能,首先通过创新来提高人工智能的性能,通过协调来增加人工智能的总体布局,通过绿色来降低它的能耗,通过开放来加大它的共享范围。
2、知识数据双驱动的人工智能
人工智能的发展历程经常被划分为两代,第一代叫知识驱动,第二代叫数据驱动。第一代人工智能主要是基于知识库和推理机来模拟人类的推理和思考行为代表性的成果。比如说IBM公司的Deep Blue和Deeper Blue打败了国际象棋的冠军卡斯帕罗夫。
它的优点是具有很好的可解释性,而且知识作为数据和信息高度凝练的体现,也往往意味着更高的算法执行效率。而它的缺点是完全依赖专家知识。一方面,将知识变成机器可理解、可执行的算法十分费时费力;另一方面,还有大量的知识或经验难以表达建模。因此,应用范围非常有限。所以,在第一代人工智能,虽然知识驱动效率高,但是在如何获取知识,是很困难的事情。
第二代人工智能主要是基于深度学习来模拟人类的感知,比如说视觉、听觉、触觉等。代表性的成果就是我们今天的深度神经网络,它通过收集大量的训练数据并进行标注,然后来训练设计好的深度网络。
优点是不需要领域知识,只需要通过大数据的训练就可以达到甚至超过人类的感知或识别水平。具有通用性强、端到端的“黑箱”或傻瓜特性。缺点是算法非常脆弱,依赖高质量、带标记的大数据以及强大算力。因此,具有鲁棒性差、不可解释,以及不太可靠等瓶颈问题。
前面两代人工智能一个是基于知识驱动的,一个是基于数据驱动的,而我们希望未来第三代人工智能应当是将知识驱动和数据驱动结合起来,充分发挥知识、数据、算法和算力四要素的作用,来建立可解释的鲁棒人工智能理论。
为了探索知识和数据双驱动的人工智能落地,清华大学的张钹院士提了很多思路,它把各种形态的知识,通过一系列AI技术进行抽取、表达后协同大量数据进行计算,进而产生更为精准的模型,并再次赋能给机器和人。目前在若干垂直行业获得初步成功。
华为云提出了影响行业人工智能落地的四个要素:明确定义的应用场景、充沛的算力、可以演进的AI、组织与人才的匹配。但是这种垂直行业成功的人工智能,距离我们通用人工智能却是渐行渐远,因为它需要领域专家,领域专家使得人工智能局限到某个领域里了。而我们希望未来的通用人工智能,不仅仅是一个领域的专家,应当是一个通才。
3、人机物融合的混合人工智能
在2021年5月,习近平总书记在中国科协第十次全国代表大会上的讲话中指出,以信息技术、人工智能为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围。人类正在进入一个人、机、物三元融合的万物智能互联时代。
我们的研究对象由物理-信息系统向物理-信息-人类社会更复杂的系统扩展。工业4.0是德国提出来的,工业4.0的基础是CPS,即物理信息系统。而现在需要在物理信息系统上再增加人类社会或者叫人类的智能,这样就构成了一个三元空间。
人类面临着许多问题,它具有不确定性、脆弱性和开放性;同时人类也是智能机器的服务对象和最终价值判断的仲裁者,因此人类智能与机器智能的协同将会贯穿始终,这就需要将人的作用或者认知模型引入到人工智能当中,从而形成人机混合智能或者叫混合增强智能。
人机混合增强智能有两种形态:一种是人在回路中(Human-in-the-loop)的混合增强智能,一种是人在回路上(Human-on-the-loop)的混合增强智能。Human-in-the-loop,它是将人作为一个计算节点,或者是一个决策节点放置在整个智能回路当中。
在机械化时代,人机混合智能延伸和增强了人的体力,不叫混合智能,其实是体能混合体能。而智能化时代,人机混合延伸和增强了人的感知力。今天智能化时代,人机混合延伸和增强了人类的智力,包括感知力增强和智力增强。
人机混合智能已经有了很多尝试。可穿戴搬运机器人在马达驱动下,支撑人的上半身,减轻搬运重物时人腰部的负担。马斯克把电极植入人脑,让人脑可以随时直接从计算机中下载或者上传数据,这大幅度提升人的认知能力,相当于给人加了一个外存储空间。所以希望未来人机混合增强智能,能够建立以人为中心的智能形态,保证它可用,好用,可控。
当前的人工智能没有自主的意识,它的价值观主要是由使用者的价值观所决定。因此我们需要通过人机混合的方式,为人工智能立心,从而让人工智能更好地为人类“立功”。人为机器立心,机器为人的“立功”,这是我们所希望的未来发展趋势。
4、可信、可靠可解释的人工智能
人工智能的可解释性问题由来已久,机器学习尤其是深度学习的发展,使得人工智能的模型越来越复杂。这些更复杂、更强大的模型也变得越来越不透明。另外随着大数据的兴起,今天的机器学习模型基本围绕着相关性或者关联性建立的,并不是基于因果性。相关性和关联性不能来解释因果性,从而导致了很多挑战性的问题。比如虚假的关联性,模型的调试性和透明性的缺失,模型的不可控以及不受欢迎的数据放大等。
此类问题不解决,人工智能就会存在着不可信、不可控和不可靠的软肋。2019年欧盟出台了《人工智能道德准则》,明确提出了人工智能的发展方向,应该是“可信赖的”,包括安全、隐私、透明和可解释等。
那么什么是可解释性呢?谷歌的科学家在2017年的ICML会议上给了定义:可解释性是一种以人类能理解的语言给人类提供解释的能力,能听得懂才行。所以如何解决人工智能的可解释性问题,这是今天我们面临的非常大的瓶颈。
人有显性知识和隐性知识,隐性知识就是经验直觉,人可以有效地结合两种不同的知识。当前的深度学习是以概率模型得到了隐性知识,而显性知识适合用知识图谱来模拟。
所以,可解释性的人工智能,希望通过引入知识图谱来解决这个问题。目前的深度学习和知识图谱这两个事件,还没有很好地结合到一起。未来希望把知识图谱更好的引入到人工智能里去。
可解释性的要求是对人工智能系统的技术过程和相关的决策过程能够给出合理的解释。技术可解释是要求人工智能作出的决策是可以被人们所理解和追溯的。在对人类生命造成重大影响时,需要人工智能的决策过程有合理的解释。
可解释性人工智能有三大需求,第一,使深度神经网组件变得透明。第二,从深度神经网里面学到语义图。第三,生成人类所能理解的决策解释。
5、非深度神经网络的人工智能
今天AI的成功,在很大程度上是大数据和深度学习的成功。如果把AI未来的发展全部寄托在深度神经网络上,总让人感到有些单调,尽管目前的网络形态也是多种多样的。但是,我们仍然有必要来研究深度神经网络之外的人工智能系统,比如说深度森林、宽度学习等。
它为我们提供了未来人工智能的更多可能,或者让人有更多的选择,为人们提供了多元化的新选择,从而避免了人们不得不被迫选择深度神经网络的无奈。
其实现在都在追风深度神经网络,往往是费了很大劲,效果并没有提升多少。相信未来一定还有更多非深度神经网络的人工智能系统。因为系统的多样性是改善人工智能生态环境的重要保障,比如说南京大学人工智能学院院长周志华教授团队提出来的深度森林。周教授认为深度神经网络之所以成功,主要是基于三个关键因素。
第一具有逐层加工处理的能力,第二是内置特征变换,第三是模型的复杂度要够大。但是这三个因素,并没有要求我们必须使用神经网络模型,其他的模型只要满足这三个特点也是可以的。所以,只要满足以上三点,别的模型也能做到深度学习。
为此,他们就提出了一种新型的深度学习模型叫深度森林。深度森林的基础构件是不可微的决策树,其训练过程并不基于BP算法,甚至不依赖于梯度计算。深度森林的优点:训练简单、效率高,小规模训练数据也可运转,而且在理论分析方面也更容易。
华南理工大学计算机学院的院长陈教授,他提出了宽度学习系统。陈俊龙教授认为,虽然深度结构的网络非常强大,但是大多数的网络都被极度耗时的训练过程所困扰,其中最主要的原因是,上述深度网络都结构复杂并且涉及到大量的超参数。为此,提出了宽度神经网络系统。
宽度网络的优点:
①宽度结构由于没有层与层之间的耦合而非常简洁;
②由于没有多层连接,宽度网络亦不需要利用梯度下降来更新权值,计算速度大优于深度学习;
③网络精度达不到要求时,可以通过增加网络的“宽度”来提升精度,而增加宽度所增加的计算量和深度网络增加层数相比,可以说是微乎其微。
6、开放环境自适应的人工智能
今天AI的成功基本上都是封闭环境中的成功,其中机器学习有许多假设条件。机器学习里面有很多假设,比如对数据的独立同分布的假设,以及数据分布的恒定假设,它通常要假定样本的类别是恒定的,测试数据的类别跟训练数据的类别要一样,不会出现训练时没有遇到的类别。另外样本的属性也是恒定的,测试的时候要求属性特征是完备的。
实际情况是现在越来越多地碰到所谓的开放动态环境。开放环境中一切都会发生变化,类别会发生变化,样本的属性也会发生变化。这要求未来的人工智能系统必须具备环境自适应能力,能够应对未曾训练过的风险挑战。
第二要求人工智能系统的鲁棒性强,比如它抗干扰能力强,稳定性高。在自动驾驶或者无人驾驶领域,情况非常复杂。在实验室的封闭环境下,无论采集多少训练样本,都不可能涵盖所有的情况,因为现实世界远比我们想象要丰富的多。
在自动驾驶的过程中或遇到越来越多以前没有见到的特殊情况,尤其是越是突发事件,越是很少出现的场景,在平常训练不够充分的情况下,非常考验人工智能的自适应性和鲁棒性;即如何在一个开放环境下,通过自主的机器学习,实时的进行数据分析和模型的迭代更新。
所以未来的人工智能一定是开放环境下的人工智能,才能真正达到通用人工智能。而实验室里面的人工智能,它只能针对一些固定的样本,性能可以达到很高,甚至达到将近百分之百的成功率,如果一旦放到丰富多彩的现实世界里面,它就变得非常脆弱。
现有人工智能依赖大量的高质量的训练数据和计算资源,来充分学习模型的参数,在初始建模阶段,由于数据充分可以得到比较理想的效果,在投入使用一段时期后,在线数据内容的更新,就会产生系统性能上的偏差,严重时直接导致系统下线。
在训练数据量有限的情况下,一些规模巨大的深度神经网络也容易出现过拟合,使得在新数据上的测试性能,远低于之前测试数据上的性能。
在特定数据集上测试性能良好的深度神经网络,很容易被添加少量随机噪声的对抗样本欺骗,从而导致系统很容易出现高可信度的错误判断。所以发展鲁棒性可扩展性的智能学习系统,是未来人工智能的重要的研究课题。
● AAIG成立一周年!砥砺前行,谱写新时代的科技之歌~请查收这份最新的自我介绍
● AI治理必修第17刊|Meta开发出首个无文字语言AI翻译系统,闽南语翻译安排上!人工智能是否需要神经科学?
● 听委员说|AAIG薛晖出席杭州市"两会",提出加快建立人工智能产业的多元协同治理机制
● 文本如药?如何通过多样例学习判断有效成分?如何识别辱骂文本?对话质量分析应用场景?AAIG自然语言理解实验室EMNLP专场(上)
● “算法偏见”是概念炒作吗?「这个AI不太冷」第3期带你揭秘现实AI!
更多人工智能治理和可持续发展好文点击下方名片关注和星标【阿里巴巴人工智能治理与可持续发展研究中心】